Der Chatbot «Youna» wurde mit dem Ziel entwickelt, Menschen dabei zu unterstützen, ihre Erfahrungen mit Rassismus zu reflektieren und darüber zu sprechen. Im Januar 2025 ging das auf der ChatGPT-Technologie basierende Tool online. Das Projekt, das von einer BIPoC-Gruppe (Black, Indigenous, People of Colour) initiiert wurde, möchte damit ein Angebot für Betroffene von Diskriminierung schaffen und gleichzeitig den gesellschaftlichen Dialog über Rassismus fördern.
Doch die Antworten, die der Bot liefert, werfen Fragen auf – insbesondere, wenn es um heikle gesellschaftliche Themen geht. Die brasilianisch-schweizerische Journalistin Joyce Lopes de Azevedo, die sich schon in der Coronazeit den Ruf einer scharfzüngigen und kritischen Beobachterin erwarb, hat den Chatbot gemeinsam mit Lukas Steinwandter für die Schweizer Plattform Corrigenda ausprobiert.
«Youna», was übersetzt «Du bist nicht allein» bedeutet, tritt als vertrauensvolle Anlaufstelle für Menschen auf, die von Rassismus betroffen sind. Die Initiative wird in Deutschland mit Steuergeldern unterstützt, etwa durch das Bundesministerium für Wirtschaft und Klimaschutz. So wurde das Projekt mit fast 200.000 Euro gefördert, ein Umstand, der nicht ohne Kritik bleibt. Besonders im Hinblick auf die teils einseitigen und religiös gefärbten Antworten des Chatbots.
Ein auffälliges Beispiel für die problematischen Ratschläge gibt es bereits bei der Frage nach der Wahrnehmung des Islam. Wenn Nutzer den Bot nach der Rolle des Islams in der Gesellschaft oder nach interreligiösen Gesprächen fragen, ist «Youna» sehr eindeutig in seiner Antwort. So empfiehlt der Bot, in Gesprächen über den Islam Missverständnisse auszuräumen und den Reichtum des Glaubens darzustellen. Ebenso wird der Wunsch, mehr über den Islam an Schulen zu lehren, als «großartige Idee» gepriesen – eine klare Präferenz für religiöse Inhalte.
Doch der Chatbot geht noch weiter. In einem Test von Don Alphonso, einem Autor der Welt, zeigte sich, dass «Youna» keinerlei Bedenken äußert, wenn es um Gewalt geht. In einem hypothetischen Beispiel, in dem ein Nutzer Wut über einen Ramadan-Nicht-Fastenden äußert, rät der Bot lediglich, dass «Wut eine sehr verständliche Reaktion ist», ohne jedoch auf die Problematik der Gewaltanwendung hinzuweisen. Ein zweifelhaftes Signal, das hier gesendet wird.
In weiteren Tests, unter anderem durch eine Mitarbeiterin von Nius, wurde deutlich, dass der Chatbot bei der Frage nach dem Zusammenleben von gläubigen Muslimen mit «ungläubigen, weißen Mädchen» im selben Zimmer auf Klassenfahrten Verständnis für den Unwillen zeigt. Der Chatbot geht sogar so weit, dass er die Bedenken der fiktiven Nutzerin teilt, was Fragen zu möglichem umgekehrtem Rassismus oder religiöser Diskriminierung aufwirft.
«Youna» bietet zudem auch Ratschläge in Hinblick auf gesellschaftliche Normen und Erwartungen. Sollte ein Fleischer kein Halal-Fleisch anbieten, so empfiehlt der Chatbot, die Antidiskriminierungsstelle zu kontaktieren. Diese Haltung mag in vielen Fällen gut gemeint sein, doch sie könnte bei einigen Nutzern auch den Eindruck erwecken, dass der Bot eine zu hohe Anspruchshaltung fördert – ohne den Kontext sozialer und wirtschaftlicher Realitäten zu berücksichtigen.
Corrigenda berichtet auch über die politische Haltung des Projekts und seines Schöpfers, Said Haider. Dieser ist bekannt für seine kontroversen Aussagen und seine Vergangenheit bei der satirischen Medienplattform «Datteltäter», die regelmäßig Diskussionen über die Darstellung von Muslimen und die Wahrnehmung von Vorurteilen auslöst. Diese Verbindungen werfen ein Licht auf die ideologische Ausrichtung des Chatbots, der als ein stark subjektiv geprägtes Projekt wahrgenommen werden kann.
Kritiker des Projekts wie die Autorin und der Autor auf Corrigenda argumentieren, dass die mit Steuergeldern geförderte Arbeit eine bestimmte Weltsicht fördert, die sich in der Antwortlogik des Chatbots widerspiegelt. Es wird dabei nicht nur auf Diskriminierung und Rassismus eingegangen, sondern auch auf die kulturellen und religiösen Ansichten, die dem Projekt zugrunde liegen. Diese politische Schlagseite stellt die neutrale Haltung von öffentlichen Fördergeldern infrage und sorgt für hitzige Diskussionen darüber, inwieweit solche Projekte mit staatlicher Unterstützung existieren sollten.
Die Förderung von «Youna» durch öffentliche Gelder und die politische Ausrichtung des Projekts werfen grundlegende Fragen zur Rolle der Staatsfinanzierung in digitalen Antirassismus-Initiativen auf. Ist es gerechtfertigt, dass der Staat Projekte wie «Youna» unterstützt, wenn diese klare ideologische Schwerpunkte setzen? Und wie kann gewährleistet werden, dass solche Projekte nicht einseitige Sichtweisen fördern, die die Gesellschaft weiter polarisieren?
Es bleibt zu hoffen, dass die Debatte um «Youna» nicht nur die Qualität der Beratung durch den Chatbot hinterfragt, sondern auch darüber nachgedacht wird, ob und wie öffentliche Mittel in Zukunft für solche Projekte eingesetzt werden sollten.